home *** CD-ROM | disk | FTP | other *** search
/ Group 42-Sells Out! - The Information Archive / Group 42 Sells Out (Group 42) (1996).iso / internet / varian1.txt < prev    next >
Text File  |  1995-11-30  |  71KB  |  2,309 lines

  1.  
  2.  
  3.                                                          Preliminary Draft
  4.  
  5.          Some  Economics  of  the  Internet
  6.  
  7.  
  8.                                        by
  9.  
  10.  
  11.                   Jeffrey  K.  MacKie-Mason
  12.  
  13.                              Hal  R.  Varian
  14.                          University of Michigan
  15.  
  16.  
  17.                               November 1992
  18.                     Current version: June 14, 1993
  19.  
  20.  
  21. Abstract. This is a preliminary version of a paper prepared
  22. for the Tenth Michigan Public Utility Conference at Western
  23. Michigan University March 25--27, 1993.  We describe the
  24. history,  technology and cost structure of the Internet.  We
  25. also describe a possible smart-market mechanism for pricing
  26. traffic on the Internet.
  27. Keywords.  Networks, Internet, NREN.
  28. Address.  Hal R. Varian, Jeffrey K. MacKie-Mason, Depart-
  29. ment of Economics, University of Michigan, Ann Arbor, MI
  30. 48109-1220. E-mail: jmm@umich.edu, halv@umich.edu.
  31.  
  32.                     Some Economics of the Internet
  33.  
  34.                          Jeffrey K. MacKie-Mason
  35.                                  Hal R. Varian
  36.  
  37. The High Performance Computing Act of 1991 established
  38.  
  39. the National Research and Education Network (NREN). The
  40.  
  41. NREN is sometimes thought of as the ``successor'' to the
  42.  
  43. NSFNET,  the  so-called  backbone  of  the  Internet,  and  is
  44.  
  45. hoped  by  some  to  serve  as  a  model  for  a  future  National
  46.  
  47. Public Network. It is widely expected that substantial public
  48.  
  49. and private resources will be invested in the NREN and other
  50.  
  51. high performance networks during the next 5--10 years.  In
  52.  
  53. this paper we outline the history of the Internet and describe
  54.  
  55. some of the technological and economic issues relating to it.
  56.  
  57. We conclude with a discussion of some pricing models for
  58.  
  59. congestion control on the Internet.
  60.  
  61.  
  62.  
  63. 1.  A Brief History of the Internet
  64.  
  65.  
  66. In the late sixties the Advanced Research Projects Adminis-
  67.  
  68. tration (ARPA), a branch of the U.S. Defense Department,
  69.  
  70. developed  the  ARPAnet  as  a  network  linking  universities
  71.  
  72. and high-tech defense department contractors. Access to the
  73.  
  74. ARPAnet was generally limited to computer scientists and
  75.  
  76. other technical users.
  77.  
  78.      In the mid-eighties the NSF created six supercomputer
  79.  
  80. centers  which  it  wanted  to  make  widely  available  to  re-
  81.  
  82. searchers. Initially, NSF relied on the ARPAnet, Bitnet and
  83. _________________________________________
  84.  
  85.        We wish to thank Guy Almes,  Eric Aupperle,  Paul Green,  Mark
  86. Knopper, Ken Latta, Dave McQueeny, Jeff Ogden, Chris Parkin and Scott
  87. Shenker for helpful discussions, advice and data.
  88.  
  89.  
  90.  
  91.                                        1
  92.  
  93. several direct university links for this purpose, but planned
  94.  
  95. from  the  beginning  to  develop  a  network  connecting  the
  96.  
  97. centers.  The  planners  of  this  new  network,  the  NSFNET,
  98.  
  99. designed it to provide connectivity for a wide variety of re-
  100.  
  101. search and educational uses, not just for the supercomputers.1
  102.      The NSFNET was conceived as a backbone connecting
  103.  
  104. together a group of regional networks.  A university would
  105.  
  106. connect  to  its  regional  network,  or  possibly  to  a  neighbor
  107.  
  108. university  that  had  a  path  to  the  regional  network.   The
  109.  
  110. regional network hooked into a regional supercomputer. All
  111.  
  112. of the supercomputers were connected together by the high-
  113.  
  114. speed NSFNET backbone, and thus the whole network was
  115.  
  116. linked together.
  117.  
  118.      This  design  was  quite  successful---so  successful  that
  119.  
  120. it  soon  became  overloaded.   In  1987  the  NSF  contracted
  121.  
  122. with  Merit,  the  Michigan  regional  network,  to  upgrade
  123.  
  124. and manage the NSFNET. Merit, aided by MCI and IBM,
  125.  
  126. significantly enhanced the capabilities of the network. Since
  127.  
  128. 1985, the Internet has grown from about 200 networks to well
  129.  
  130. over 11,000 and from 1,000 hosts to over a million.  About
  131.  
  132. 370,000 of these hosts are at educational sites, 300,000 are
  133.  
  134. commercial sites, and about 130,000 are government/military
  135.  
  136. sites. NSFNET traffic has grown from 85 million packets in
  137.  
  138. January 1988 to 26 billion packets in February 1993. This is
  139.  
  140. a three hundred-fold increase in only five years. The traffic
  141.  
  142. on  the  network  is  currently  increasing  at  a  rate  of  11%  a
  143.  
  144. _________________________________________
  145.   1  See Lynch (1993) for a brief but detailed history of the Internet.
  146.                                        2
  147.  
  148. month.2
  149.  
  150.      The NSFNET was funded by public funds and targeted for
  151.  
  152. scientific and educational uses. NSF's Acceptable Use Policy
  153.  
  154. specifically  excluded  activities  not  in  support  of  research
  155.  
  156. or  education,  and  extensive  use  for  private  or  personal
  157.  
  158. business. This policy raised a number of troublesome issues.
  159.  
  160. For example, should access be made available to commercial
  161.  
  162. entities that wanted to provide for-profit services to academic
  163.  
  164. institutions?
  165.  
  166.      In September of 1990, Merit, IBM and MCI spun off a
  167.  
  168. new not-for-profit corporation,  Advanced Network & Ser-
  169.  
  170. vices,  Inc.   (ANS).  ANS  received  $10  million  in  initial
  171.  
  172. funding from IBM and MCI. One of the main reasons for
  173.  
  174. establishing ANS was to ``: : :provide an alternative network
  175.  
  176. that would allow commercial information suppliers to reach
  177.  
  178. the research and educational community without worrying
  179.  
  180. about the usage restrictions of the NSFNET.'' (Mandelbaum
  181.  
  182. and Mandelbaum (1992), p. 76). In November 1992, the re-
  183.  
  184. sponsibility for managing NSFNET Network Operations was
  185.  
  186. taken over by ANS. Merit,  however,  retains responsibility
  187.  
  188. for providing NSFNET backbone services.
  189.  
  190.      In  1991  ANS  created  a  for-profit  subsidiary,   ANS
  191.  
  192. CO+RE Systems, Inc., designed to handle commercial traffic
  193.  
  194. on ANSnet. It seems apparent that the institutional structure
  195.  
  196. is  developing  in  a  way  that  will  provide  wider  access  to
  197.  
  198. private  and  commercial  interests.   According  to  the  Pro-
  199.  
  200. gram Plan for the NREN, ``The networks of Stages 2 and 3
  201.  
  202. will be implemented and operated so that they can become
  203. _________________________________________
  204.   2  Current traffic statistics are available from Merit Network, Inc. They
  205. can be accessed by computer by using ftp or Gopher to nic.merit.edu.
  206.  
  207.  
  208.  
  209.                                        3
  210.  
  211. commercialized;  industry will then be able to supplant the
  212.  
  213. government in supplying these network services.''
  214.  
  215.  
  216.  
  217. 2.  Internet Technology and Costs
  218.  
  219.  
  220. The Internet is a network of networks that all use connec-
  221.  
  222. tionless packet-switching communications technology. Even
  223.  
  224. though much of the traffic moves across lines leased from
  225.  
  226. telephone common carriers, the technology is quite different
  227.  
  228. from the switched circuits used for voice telephony. A tele-
  229.  
  230. phone user dials a number and various switches then open a
  231.  
  232. line between the caller and the called number.  This circuit
  233.  
  234. stays open and no other caller can share the line until the call
  235.  
  236. is terminated.  A connectionless packet-switching network,
  237.  
  238. by contrast, uses statistical multiplexing to maximize use of
  239.  
  240. the communications lines.3   Each circuit is simultaneously
  241.  
  242. shared by numerous users, and no single open connection is
  243.  
  244. maintained for a particular communications session: part of
  245.  
  246. the data may go by one route while the rest may take a differ-
  247.  
  248. ent route.  Because of the differences in technology pricing
  249.  
  250. models appropriate for voice telephony will be inappropriate
  251.  
  252. for data networks.
  253.  
  254.      Packet-switching technology has two major components:
  255.  
  256. packetization  and  dynamic  routing.  A  data  stream  from  a
  257.  
  258. computer is broken up into small chunks called ``packets.''
  259.  
  260. The  IP  (Internet  protocol)  specifies  how  to  break  up  a
  261.  
  262. datastream into packets and reassemble it, and also provides
  263.  
  264. the  necessary  information  for  various  computers  on  the
  265.  
  266. _________________________________________
  267.   3  ``Connection-oriented'' packet-switching networks also exist:  X.25
  268. and frame relay are examples of such.
  269.  
  270.  
  271.  
  272.                                        4
  273.  
  274. Internet (the routers) to move the packet to the next link on
  275.  
  276. the way to its final destination.
  277.  
  278.      Packetization  allows  for  the  efficient  use  of  expensive
  279.  
  280. communications lines. Consider a typical interactive terminal
  281.  
  282. session to a remote computer.  Most of the time the user is
  283.  
  284. thinking. The network is needed only after a key is struck or
  285.  
  286. when a reply is returned. Holding an open connection would
  287.  
  288. waste most of the capacity of the network link. Instead, the
  289.  
  290. input line is collected until the return key is struck, and then
  291.  
  292. the line is put in a packet and sent across the network.  The
  293.  
  294. rest  of  the  time  the  network  links  are  free  to  be  used  for
  295.  
  296. transporting packets from other users.
  297.  
  298.      With dynamic routing a packet's path across the network
  299.  
  300. is  determined  anew  for  each  packet  transmitted.   Because
  301.  
  302. multiple paths exist between most pairs of network nodes,
  303.  
  304. it is quite possible that different packets will take different
  305.  
  306. paths through the network.4
  307.  
  308.      The postal service is a good metaphor for the technology
  309.  
  310. of  the  Internet  (Krol  (1992),  pp.  20--23).   A  sender  puts
  311.  
  312. a message into an envelope (packet),  and that envelope is
  313.  
  314. routed through a series of postal stations, each determining
  315.  
  316. where to send the envelope on its next hop.  No dedicated
  317.  
  318. pipeline is opened end-to-end, and thus there is no guarantee
  319.  
  320. that envelopes will arrive in the sequence they were sent, or
  321.  
  322. follow exactly the same route to get there.
  323.  
  324. _________________________________________
  325.   4  Dynamic routing contributes to the efficient use of the communications
  326. lines, because routing can be adjusted to balance load across the network.
  327. The other main justification for dynamic routing is network reliability, since
  328. it gives each packet alternative routes to their destination should some links
  329. fail.  This was especially important to the military, which funded most of
  330. the early TCP/IP research to improve the ARPANET.
  331.  
  332.  
  333.  
  334.                                        5
  335.  
  336.      So that packets can be identified and reassembled in the
  337.  
  338. correct order, TCP packets consist of a header followed by
  339.  
  340. data.  The header contains the source and destination ports,
  341.  
  342. the sequence number of the packet, an acknowledgment flag,
  343.  
  344. and so on.  The header comprises 20 (or more) bytes of the
  345.  
  346. packet.
  347.  
  348.      Once  a  packet  is  built  TCP  sends  it  to  a  router,  a
  349.  
  350. computer that is in charge of sending packets on to their next
  351.  
  352. destination.  At this point IP tacks on another header (20 or
  353.  
  354. more bytes) containing source and destination addresses and
  355.  
  356. other information needed for routing the packet. The router
  357.  
  358. then calculates the best next link for the packet to traverse
  359.  
  360. towards  its  destination,  and  sends  it  on.    The  best  link
  361.  
  362. may change minute-by-minute, as the network configuration
  363.  
  364. changes.5  Routes can be recalculated immediately from the
  365.  
  366. routing table if a route fails. The routing table in a switch is
  367.  
  368. updated approximately continuously.
  369.  
  370.      The data in a packet may be 1500 bytes or so. However,
  371.  
  372. recently the average packet on NSFNET carries about 200
  373.  
  374. bytes of data (packet size has been steadily increasing).  On
  375.  
  376. top of these 200 bytes the TCP/IP headers add about 40; thus
  377.  
  378. about  17%  of  the  traffic  carried  on  the  Internet  is  simply
  379.  
  380. header information.
  381.  
  382.      Over the past 5 years, the speed of the NSFNET backbone
  383.  
  384. has grown from 56 Kbps to 45 Mbps (``T-3'' service).6 These
  385. _________________________________________
  386.   5  Routing is based on a dynamic knowledge of which links are up and
  387. a static ``cost'' assigned to each link.  Currently routing does not take
  388. congestion into account. Routes can change when hosts are added or deleted
  389. from the network (including failures), which happens often with about 1
  390. million hosts and over 11,000 subnetworks.
  391.  
  392.   6  In fact, although the communications lines can transport 45 Mbps, the
  393. current network routers can support only 22.5 Mbps service.  ``Kbps'' is
  394.  
  395.  
  396.                                        6
  397.  
  398. lines can move data at a speed of 1,400 pages of text per
  399.  
  400. second; a 20-volume encyclopedia can be sent across the net
  401.  
  402. in half a minute. Many of the regional networks still provide
  403.  
  404. T1 (1.5Mbps) service, but these too, are being upgraded.
  405.  
  406.      The  transmission  speed  of  the  Internet  is  remarkably
  407.  
  408. high.  We recently tested the transmission delay at various
  409.  
  410. times of day and night for sending a packet to Norway. Each
  411.  
  412. packet traversed 16 links, and thus the IP header had to be
  413.  
  414. read and modified 16 times, and 16 different routers had to
  415.  
  416. calculate  the  best  next  link  for  the  transmission.   Despite
  417.  
  418. the  many  hops  and  substantial  packetization  and  routing
  419.  
  420. overhead, the longest delay on one representative weekday
  421.  
  422. was only 0.333 seconds (at 1:10 pm); the shortest delay was
  423.  
  424. 0.174 seconds (at 5:13 pm).
  425.  
  426.  
  427.  
  428. Current Backbone Network Costs
  429.  
  430.  
  431. The postal service is a good metaphor for packet-switching
  432.  
  433. technology,  but  a  bad  metaphor  for  the  cost  structure  of
  434.  
  435. Internet services. Most of the costs of providing the Internet
  436.  
  437. are  more-or-less  independent  of  the  level  of  usage  of  the
  438.  
  439. network; i.e., most of the costs are fixed costs. If the network
  440.  
  441. is  not  saturated  the  incremental  cost  of  sending  additional
  442.  
  443. packets is essentially zero.
  444.  
  445.      The NSF currently spends about $11.5 million per year
  446.  
  447. to operate the NSFNET and provides $7 million per year of
  448.  
  449. grants to help operate the regional networks.7  There is also
  450. _________________________________________
  451. thousand (kilo) bits per second; ``Mbps'' is million (mega) bits per second.
  452.  
  453.   7  The regional network providers generally set their charges to recover
  454. the remainder of their costs, but there is also some subsidization from state
  455. governments at the regional level.
  456.  
  457.  
  458.  
  459.                                        7
  460.  
  461. an NSF grant program to help colleges and universities to
  462.  
  463. connect to the NSFNET. Using the conservative estimate of
  464.  
  465. 1  million  hosts  and  10  million  users,  this  implies  that  the
  466.  
  467. NSF subsidy of the Internet is less than $20 per year per host,
  468.  
  469. and less than $2 per year per user.
  470.  
  471.      Total salaries and wages for NSFNET have increased by
  472.  
  473. a little more than one-half (about 68% nominal) over 1988-
  474.  
  475. -1991, during a time when the number of packets delivered
  476.  
  477. has increased 128 times.8  It is hard to calculate total costs
  478.  
  479. because  of  large  in-kind  contributions  by  IBM  and  MCI
  480.  
  481. during the initial years of the NSFNET project, but it appears
  482.  
  483. that  total  costs  for  the  128-fold  increase  in  packets  have
  484.  
  485. increased by a factor of about 3.2.
  486.  
  487.      Two  components  dominate  the  costs  of  providing  a
  488.  
  489. backbone network: communications lines and routers. Lease
  490.  
  491. payments for lines and routers accounted for nearly 80% of
  492.  
  493. the 1992 NSFNET costs.  The only other significant cost is
  494.  
  495. for the Network Operations Center (NOC), which accounts
  496.  
  497. for roughly 7% of total cost.9   In our discussion we focus
  498.  
  499. only on the costs of lines and routers.
  500.  
  501.      We have estimated costs for the network backbone as of
  502.  
  503. 1992--93.10  A T-3 (45 Mbps) trunk line running 300 miles
  504.  
  505. between two metropolitan central stations can be leased for
  506. _________________________________________
  507.   8  Since  packet  size  has  been  slowly  increasing,  the  amount  of  data
  508. transported has increased even more.
  509.  
  510.   9  A NOC monitors traffic flow at all nodes in the network and trou-
  511. bleshoots problems.
  512.  
  513.  10  We estimated costs for the network backbone only, defined to be links
  514. between common carrier Points of Presence (POPs) and the routers that
  515. manage those links.  We did not estimate the costs for the feeder lines to
  516. the mid-level or regional networks where the data packets usually enter and
  517. leave the backbone, nor for the terminal costs of setting up the packets or
  518. tearing them apart at the destination.
  519.  
  520.  
  521.  
  522.                                        8
  523.  
  524. about  $32,000  per  month.   The  cost  to  purchase  a  router
  525.  
  526. capable of managing a T-3 line is approximately $100,000,
  527.  
  528. including operating and service costs.  Assuming 50 month
  529.  
  530. amortization at a nominal 10% rate yields a rental cost of
  531.  
  532. about $4900 per month for the router.
  533.  
  534.  
  535.  Table 1.
  536.  
  537.  Communications and Router Costs
  538.  
  539. _(Nominal_$_per_million_bits)1_________________________________________________*
  540.  *_______
  541.  
  542. __Year________Communications_____________Routers______Design_Throughput________*
  543.  *_______
  544.  
  545.   1960                         1.00                           2.4 kbps
  546.  
  547.   1962                                    10.00*
  548.  
  549.   1963                         0.42                          40.8 kbps
  550.  
  551.   1964                         0.34                          50.0 kbps
  552.  
  553.   1967                         0.33                          50.0 kbps
  554.  
  555.   1970                                     0.168
  556.  
  557.   1971                                     0.102
  558.  
  559.   1974                         0.11        0.026             56.0 kbps
  560.  
  561. __1992____________________0.00094_______0.00007_______________45_mbps__________*
  562.  *_______
  563.  
  564.  
  565. Notes: 1. Costs are based on sending one million bits of data approximately
  566. 1200 miles on a path that traverses five routers.
  567. Sources:  1960--74 from Roberts (1974).  1992 calculated by the authors
  568. using data provided by Merit Network, Inc.
  569.  
  570.  
  571.      The costs of both communications and switching have
  572.  
  573. been dropping rapidly for over three decades. In the 1960s,
  574.  
  575. digital  computer  switching  was  more  expensive  (on  a  per
  576.  
  577. packet  basis)  than  communications  (Roberts  (1974)),  but
  578.  
  579. switching has become substantially cheaper since then.  We
  580.  
  581. have estimated the 1992 costs for transporting 1 million bits
  582.  
  583. of data through the NSFNET backbone and compare these
  584.  
  585. to estimates for earlier years in Table 1.  As can be seen in
  586.  
  587. 1992 the line cost is about eight times as large as the cost of
  588.  
  589. routers.
  590.  
  591.  
  592.                                        9
  593.  
  594.      The topology of the NSFNET backbone directly reflects
  595.  
  596. the cost structure: lots of cheap routers are used to manage
  597.  
  598. a limited number of expensive lines. We illustrate a portion
  599.  
  600. of the network in Figure 1.  Each of the numbered squares
  601.  
  602. is an RS6000 router; the numbers listed beside a router are
  603.  
  604. links to regional networks. Notice that in general any packet
  605.  
  606. coming on to the backbone has to move through two separate
  607.  
  608. routers at the entry and exit node.  For example, a message
  609.  
  610. we  send  from  the  University  of  Michigan  to  a  scientist  at
  611.  
  612. Bell Laboratories will traverse link 131 to Cleveland, where
  613.  
  614. it passes through two routers (41 and 40). The packet goes to
  615.  
  616. New York, where it again moves through two routers (32 and
  617.  
  618. 33) before leaving the backbone on link 137 to the JVNCnet
  619.  
  620. regional  network  that  Bell  Labs  is  attached  to.   Two  T-3
  621.  
  622. communications links are navigated using four routers.
  623.  
  624.  
  625. Figure 1. Network Topology Fragment
  626.  
  627.  
  628.                                        10
  629.  
  630. Technological and Cost Trends
  631.  
  632.  
  633. The decline in both communications link and switching costs
  634.  
  635. has been exponential at about 30% per year (see the semi-log
  636.  
  637. plot in Figure 2). But more interesting than the rapid decline
  638.  
  639. in costs is the change from expensive routers to expensive
  640.  
  641. transmission links. Indeed, it was the crossover around 1970
  642.  
  643. (Figure 2) that created a role for packet-switching networks.
  644.  
  645. When  lines  were  cheap  relative  to  switches  it  made  sense
  646.  
  647. to  have  many  lines  feed  into  relatively  few  switches,  and
  648.  
  649. to open an end-to-end circuit for each connection.  In that
  650.  
  651. way, each connection wastes transmission capacity (lines are
  652.  
  653. held open whether data is flowing or not) but economizes on
  654.  
  655. switching (one set-up per connection).
  656.  
  657. Figure  2.   Trends  in  costs  for  communications  links  and
  658.  
  659. routers.
  660.  
  661.  
  662.  
  663.      When switches became cheaper than lines the network is
  664.  
  665. more efficient if data streams are broken into small packets
  666.  
  667. and sent out piecemeal, allowing the packets of many users
  668.  
  669. to share a single line. Each packet must be examined at each
  670.  
  671.  
  672.                                        11
  673.  
  674. switch along the way to determine its type and destination,
  675.  
  676. but this uses the relatively cheap switch capacity.  The gain
  677.  
  678. is that when one source is quiet, packets from other sources
  679.  
  680. use the same (relatively expensive) lines.
  681.  
  682.      Although the same reversal in switch and line costs oc-
  683.  
  684. curred for voice networks, circuit-switching is still the norm
  685.  
  686. for voice. Voice is not well-suited for packetization because
  687.  
  688. of variation in delivery delays, packet loss, and packet or-
  689.  
  690. dering.11   Voice customers will not tolerate these delays in
  691.  
  692. transmission (although some packetized voice applications
  693.  
  694. are beginning to emerge as transmission speed and reliability
  695.  
  696. increases, see (Anonymous (1986)) ).12
  697.  
  698.  
  699.  
  700. Future Technologies
  701.  
  702.  
  703. Packet-switching is not the most efficient technology for all
  704.  
  705. data communications.  As we mentioned above, about 17%
  706.  
  707. of the typical packet is overhead (the TCP and IP headers).
  708.  
  709. Since  the  scarce  resource  is  bandwidth,  this  overhead  is
  710.  
  711. costly.    Further,  every  packet  from  a  data  stream  must
  712.  
  713. be  individually  routed  through  many  nodes  (12  seems  to
  714.  
  715. be  typical  for  a  transmission  within  the  U.S.):  each  node
  716.  
  717. must read the IP header on each packet,  then do a routing
  718.  
  719. calculation.   Transferring  a  modest  3  megabyte  data  file
  720. _________________________________________
  721.  11  Our tests found packet delays ranging between 156 msec and 425 msec
  722. on a trans-Atlantic route (N=2487 traces, standard deviation = 24.6 msec).
  723. Delays were far more variable to a Nova Scotia site: the standard deviation
  724. was 340.5 msec when the mean delay was only 226.2 msec (N=2467); the
  725. maximum delay was 4878 msec.
  726.  
  727.  12  The reversal in link and switch costs has had a profound effect on voice
  728. networks. Indeed, Peter Huber has argued that this reversal made inevitable
  729. the breakup of ATT (Huber (1987)). He describes the transformation of the
  730. network from one with long lines all going into a few central offices into
  731. a web of many switches with short lines interconnecting them so that each
  732. call could follow the best path to its destination.
  733.  
  734.  
  735.  
  736.                                        12
  737.  
  738. will  require  around  6,000  packets,  each  of  which  must  be
  739.  
  740. individually routed through a dozen or so switches.13  Since
  741.  
  742. a  file  transfer  is  a  single  burst  of  demand  there  may  be
  743.  
  744. little gain from packetization to share the communications
  745.  
  746. line; for some large file transfers (or perhaps real-time audio
  747.  
  748. and  video  transmissions)  it  may  be  more  efficient  to  use
  749.  
  750. connection-oriented systems rather than switched packets.14
  751.      Packetization and connection-oriented transport merge in
  752.  
  753. Asynchronous Transfer Mode (ATM) which is gaining wide
  754.  
  755. acceptance as the next major link layer technology.15  ATM
  756.  
  757. does not eliminate TCP/IP packetization and thus does not
  758.  
  759. reduce that source of overhead; indeed, ATM adds a 5-byte
  760.  
  761. header to each 53-byte cell, imposing its own 9% overhead.
  762.  
  763. However, ATM opens end-to-end connections, economizing
  764.  
  765. on  routing  computations  and  the  overhead  from  network
  766.  
  767. layer packet headers. Networks currently under development
  768.  
  769. offer speeds of 155 and 622 Mbps (3.4 to 13.8 times faster
  770.  
  771. than  the  current  T-3  lines  used  by  NSFNET).  At  those
  772.  
  773. speeds  ATM  networks  are  expected  to  carry  both  voice
  774. _________________________________________
  775.  13  The average packet size is 350 bytes for FTP file transfers, but for large
  776. files the packets will be about 500 bytes each. The header overhead for this
  777. transfer would be about 8%.
  778.  
  779.  14  If there is a slower-speed link on the file transfer path---say 56 kbps---
  780. then higher speed links (T-1 or T-3) on the path will have idle capacity that
  781. could be utilized if the network is packetized rather than connection-oriented.
  782.  
  783.  15  The link layer is another layer underneath TCP/IP that handles the
  784. routing, physical congestion control and internetworking of packets. Current
  785. examples of such technologies are Ethernet, FDDI and Frame Relay. The
  786. network technology can carry ``anyone's'' packets; e.g., TCP/IP packets,
  787. AppleTalk packets, or Novell Netware packets.  Using the postal service
  788. analogy,  the  TCP/IP  layer  handles  ``get  the  mail  from  New  York  to
  789. Washington;  the link layer specifies ``mail from NY to DC should be
  790. packed in shipping containers and loaded onto a semi-trailer bound for
  791. DC.''
  792.  
  793.  
  794.  
  795.                                        13
  796.  
  797. and data simultaneously.  A related alternative is Switched
  798.  
  799. Multi-Megabit Data Service (SMDS) (Cavanaugh and Salo
  800.  
  801. (1992)).
  802.  
  803.      ATM  is  promising,  but  we  may  need  radically  new
  804.  
  805. technologies  very  soon.   Current  networks  are  meshes  of
  806.  
  807. optic  fiber  connected  with  electronic  switches  that  must
  808.  
  809. convert light into electronic signals and back again. We are
  810.  
  811. nearing the physical limits on the throughput of electronic
  812.  
  813. switches.   All-optical  networks  may  be  the  answer  to  this
  814.  
  815. looming bottleneck.
  816.  
  817.      The  NSFNET  backbone  is  already  using  fiber  optic
  818.  
  819. lines.  A single fiber strand can support one thousand Gbps
  820.  
  821. (gigabits), or about 22,000 times as much traffic as the current
  822.  
  823. T-3 data rate. To give some sense of the astonishing capacity
  824.  
  825. of  fiber  optics,  a  single  fiber  thread  could  carry  all  of  the
  826.  
  827. phone network traffic in the United States, including the peak
  828.  
  829. hour of Mother's Day in the United States (Green (1991)).
  830.  
  831. Yet  a  typical  fiber  bundle  has  25  to  50  threads  (McGarty
  832.  
  833. (1992)), and the telephone companies have already laid some
  834.  
  835. two million miles of fiber optic bundles (each being used at
  836.  
  837. no more than 1/22,000th of capacity) (Green (1991)).
  838.  
  839.      Thus, although switches are cheaper than lines at the rates
  840.  
  841. that current technology can drive fiber communications, in
  842.  
  843. fact we should expect communications bandwidth to be much
  844.  
  845. cheaper than switching before long. Indeed, it is already an
  846.  
  847. electronic bottleneck that is holding us back from realizing
  848.  
  849. the seemingly limitless capacity of fiber.  When capacity is
  850.  
  851. plentiful networks will use vast amounts of cheap bandwidth
  852.  
  853. to avoid using expensive switches.
  854.  
  855.      ``All-optical'' networks may be the way to avoid elec-
  856.  
  857. tronic switches.  In an all-optical network data is broadcast
  858.  
  859.  
  860.                                        14
  861.  
  862. rather than directed to a specific destination by switches, and
  863.  
  864. the recipient tunes in to the correct frequency to extract the
  865.  
  866. intended signal.  A fully-functional all-optical network has
  867.  
  868. been created by Paul Green at IBM. His Rainbow I network
  869.  
  870. connects 32 computers at speeds of 300 megabits per second,
  871.  
  872. or a total bandwidth of 9.6 gigabits---200 times as much as
  873.  
  874. the T-3-based NSFNET backbone (Green (1992)).
  875.  
  876.      Despite their promise, all-optical networks will not soon
  877.  
  878. eradicate  the  problem  of  congestion.   Limitations  on  the
  879.  
  880. number  of  available  optical  broadcast  frequencies  suggest
  881.  
  882. that  subnetworks  will  be  limited  to  about  1000  nodes,  at
  883.  
  884. least in the foreseeable future (Green (1991), Green (1992)).
  885.  
  886. Thus, for an internet of networks it will be necessary to pass
  887.  
  888. traffic  between  optical  subnetworks.  The  technologies  for
  889.  
  890. this are much further from realization and will likely create a
  891.  
  892. congested bottleneck. Thus, although the physical nature of
  893.  
  894. congestion may change, we see a persistent long-term need
  895.  
  896. for access pricing to allocate congested resources.
  897.  
  898.  
  899.  
  900. Summary
  901.  
  902.  
  903. We  draw  a  few  general  guidelines  for  pricing  packet-
  904.  
  905. switching backbones from our review of costs. The physical
  906.  
  907. marginal cost of sending a packet, for a given line and router
  908.  
  909. capacity,  is  essentially  zero.   Of  course,  if  the  network  is
  910.  
  911. congested, there is a social cost of sending a new packet in
  912.  
  913. that response time for other users will deteriorate.
  914.  
  915.      The fixed costs of a backbone network (about $14 million
  916.  
  917. per year for NSFNET at present) are dominated by the costs of
  918.  
  919. links and routers, or roughly speaking, the cost of bandwidth
  920.  
  921. (the  diameter  of  the  pipe).   Rational  pricing,  then,  should
  922.  
  923.  
  924.                                        15
  925.  
  926. focus  on  the  long-run  incremental  costs  of  bandwidth  and
  927.  
  928. the  short-run  social  costs  of  congestion.   More  bandwidth
  929.  
  930. is  needed  when  the  network  gets  congested,  (as  indicated
  931.  
  932. by unacceptable transmission delays).  A desirable pricing
  933.  
  934. structure is one that allocates congested bandwidth and sends
  935.  
  936. appropriate signals to users and network operators about the
  937.  
  938. need for expansion in capacity.
  939.  
  940.  
  941.  
  942. 3.  Congestion problems
  943.  
  944.  
  945. Another  aspect  of  cost  of  the  Internet  is  congestion  cost.
  946.  
  947. Although congestion costs are not paid for by the providers
  948.  
  949. of  network  services,  they  are  paid  for  by  the  users  of  the
  950.  
  951. service.   Time  spent  by  users  waiting  for  a  file  transfer
  952.  
  953. is  a  social  cost,  and  should  be  recognized  as  such  in  any
  954.  
  955. economic accounting.
  956.  
  957.      The  Internet  experienced  severe  congestion  problems
  958.  
  959. in  1987.    Even  now  congestion  problems  are  relatively
  960.  
  961. common in parts of the Internet (although not currently on
  962.  
  963. the T-3 backbone). According to Kahin (1992): ``However,
  964.  
  965. problems  arise  when  prolonged  or  simultaneous  high-end
  966.  
  967. uses start degrading service for thousands of ordinary users.
  968.  
  969. In  fact,  the  growth  of  high-end  use  strains  the  inherent
  970.  
  971. adaptability of the network as a common channel.''  (page
  972.  
  973. 11.)   It  is  apparent  that  contemplated  uses,  such  as  real-
  974.  
  975. time video and audio transmission, would lead to substantial
  976.  
  977. increases in the demand for bandwidth and that congestion
  978.  
  979. problems  will  only  get  worse  in  the  future  unless  there  is
  980.  
  981. substantial increase in bandwidth:
  982.  
  983.           If  a  single  remote  visualization  process  were
  984.      to  produce  100  Mbps  bursts,  it  would  take  only  a
  985.  
  986.  
  987.                                        16
  988.  
  989.      handful  of  users  on  the  national  network  to  gener-
  990.      ate  over  1Gbps  load.   As  the  remote  visualization
  991.      services move from three dimensions to [animation]
  992.      the  single-user  bursts  will  increase  to  several  hun-
  993.      dred  Mbps  : : :Only  for  periods  of  tens  of  minutes
  994.      to several hours over a 24-hour period are the high-
  995.      end requirements seen on the network.  With these
  996.      applications, however, network load can jump from
  997.      average to peak instantaneously.'' Smarr and Catlett
  998.      (1992), page 167.
  999.  
  1000.  
  1001.      There are cases where this has happened.  For example
  1002.  
  1003. during the weeks of November 9 and 16, 1992, some packet
  1004.  
  1005. audio/visual broadcasts caused severe delay problems, espe-
  1006.  
  1007. cially at heavily-used gateways to the Internet NSFNET, and
  1008.  
  1009. in several mid-level networks.
  1010.  
  1011.      To investigate the nature of congestion on the Internet
  1012.  
  1013. we timed the delay in delivering packets to seven different
  1014.  
  1015. sites  around  the  world.    We  ran  our  test  hourly  for  37
  1016.  
  1017. days  during  February  and  March,  1993.   Deliveries  can
  1018.  
  1019. be delayed for a number of reasons other than congestion-
  1020.  
  1021. induced  bottlenecks.   For  example,  if  a  router  fails  then
  1022.  
  1023. packets  must  be  resent  by  a  different  route.   However,  in
  1024.  
  1025. a  multiply-connected  network,  the  speed  of  rerouting  and
  1026.  
  1027. delivery of failed packets measures one aspect of congestion,
  1028.  
  1029. or the scarcity of the network's delivery bandwidth.
  1030.  
  1031.      Our results are summarized in Figure 3 and Figure 4; we
  1032.  
  1033. present the results only from four of the 24 hourly probes.
  1034.  
  1035. Figure 3 shows the average and maximum delivery delays by
  1036.  
  1037. time of day.  Average delays are not always proportional to
  1038.  
  1039. distance: the delay from Michigan to New York University
  1040.  
  1041. was  generally  longer  than  to  Berkeley,  and  delays  from
  1042.  
  1043. Michigan to Nova Scotia, Canada, were often longer than to
  1044.  
  1045. Oslo, Norway.
  1046.  
  1047.  
  1048.                                        17
  1049.  
  1050. Figure 3.  Maximum and Average Transmission Delays on
  1051.  
  1052. the Internet
  1053.  
  1054.      There  is  substantial  variability  in  Internet  delays.   For
  1055.  
  1056. example, the maximum and average delays in Figure 3 are
  1057.  
  1058. quite different by time of day.  There appears to be a large
  1059.  
  1060. 4pm peak problem on the east coast for packets to New York
  1061.  
  1062. and Nova Scotia, but much less for ATT Bell Labs (in New
  1063.  
  1064. Jersey).16  The time-of-day variation is also evident in Figure
  1065.  
  1066. 5, borrowed from (Claffy, Polyzos, and Braun (1992)).17
  1067. _________________________________________
  1068.  16  The high maximum delay for the University of Washington at 4pm is
  1069. correct, but appears to be aberrant. The maximum delay was 627 msec; the
  1070. next two highest delays (in a sample of over 2400) were about 250 msecs
  1071. each.  After dropping this extreme outlier, the University of Washington
  1072. looks just like UC Berkeley.
  1073.  
  1074.  17  Note that the Claffy et al. data were for the old, congested T-1 network.
  1075.  
  1076.  
  1077.  
  1078.                                        18
  1079.  
  1080.  
  1081.  
  1082.  
  1083. Figure 4. Variability in Internet Transmission Delays
  1084.  
  1085.  
  1086. Figure 5.  Utilization of Most Heavily Used Link in Each
  1087.  
  1088. Fifteen Minute Interval (Claffy et al. (1992))
  1089.  
  1090.  
  1091.      Figure 4 shows the standard deviation of delays by time
  1092. _________________________________________
  1093. We reproduce their figure to illustrate the time-of-day variation in usage;
  1094. the actual levels of link utilization are generally much lower in the current
  1095. T-3 backbone.
  1096.  
  1097.  
  1098.  
  1099.                                        19
  1100.  
  1101. of  day  for  each  destination.    The  delays  to  Canada  are
  1102.  
  1103. extraordinarily variable, yet the delays to Oslo have no more
  1104.  
  1105. variability  than  does  transmission  to  New  Jersey  (ATT).
  1106.  
  1107. Variability in delays itself fluctuates widely across times of
  1108.  
  1109. day, as we would expect in a system with bursty traffic, but
  1110.  
  1111. follows no obvious pattern.
  1112.  
  1113.      According  to  Kleinrock  (1992),  ``One  of  the  least  un-
  1114.  
  1115. derstood aspects of today's networking technology is that of
  1116.  
  1117. network  control,  which  entails  congestion  control,  routing
  1118.  
  1119. control, and bandwidth access and allocation.''  We expect
  1120.  
  1121. that if access to Internet bandwidth continues to be provided
  1122.  
  1123. at  a  zero  cost  there  will  inevitably  be  congestion.   Essen-
  1124.  
  1125. tially,  this  is  the  classic  problem  of  the  commons:  unless
  1126.  
  1127. the congestion externality is priced, there will inevitably be
  1128.  
  1129. inefficient use of the common resource. As long as users face
  1130.  
  1131. a zero price for access, they will continue to ``overgraze.''
  1132.  
  1133. Hence, it makes sense to consider how networks such as the
  1134.  
  1135. Internet should be priced.
  1136.  
  1137.      As  far  as  we  can  tell  this  question  has  received  little
  1138.  
  1139. attention. Gerla and Kleinrock (1988) have considered some
  1140.  
  1141. engineering aspects of congestion control. Faulhaber (1992)
  1142.  
  1143. has considered some of the economic issues.  He suggests
  1144.  
  1145. that  ``transactions  among  institutions  are  most  efficiently
  1146.  
  1147. based on capacity per unit time. We would expect the ANS
  1148.  
  1149. to  charge  mid-level  networks  or  institutions  a  monthly  or
  1150.  
  1151. annual  fee  that  varied  with  the  size  of  the  electronic  pipe
  1152.  
  1153. provided  to  them.   If  the  cost  of  providing  the  pipe  to  an
  1154.  
  1155. institution were higher than to a mid-level network : : :the
  1156.  
  1157. fee would be higher.''
  1158.  
  1159.      Faulhaber's suggestion makes sense for a dedicated line--
  1160.  
  1161. -e.g., a line connecting an institution to the Internet backbone.
  1162.  
  1163.  
  1164.                                        20
  1165.  
  1166. But  we  don't  think  that  it  is  necessarily  appropriate  for
  1167.  
  1168. charging for backbone traffic itself.  The reason is that the
  1169.  
  1170. bandwidth on the backbone is inherently a shared resource-
  1171.  
  1172. --many packets ``compete'' for the same bandwidth.  There
  1173.  
  1174. is an overall constraint on capacity, but there are is no such
  1175.  
  1176. thing as individual capacity level on the backbone.18
  1177.  
  1178.      Although  we  agree  that  it  is  appropriate  to  charge  a
  1179.  
  1180. flat  fee  for  connection  to  the  network,  we  also  think  that
  1181.  
  1182. it  is  important  to  charge  on  a  per  packet  basis,  at  least
  1183.  
  1184. when the network is congested.  After all,  during times of
  1185.  
  1186. congestion the scarce resource is bandwidth for additional
  1187.  
  1188. packets.19   The problem with this proposal is the overhead,
  1189.  
  1190. or, in economics terms, the transactions cost. If one literally
  1191.  
  1192. charged for each individual packet,  it would be extremely
  1193.  
  1194. costly  to  maintain  adequate  records.   However,  given  the
  1195.  
  1196. astronomical units involved there should be no difficulty in
  1197.  
  1198. basing  charges  on  a  statistical  sample  of  the  packets  sent.
  1199.  
  1200. Furthermore, accounting can be done in parallel to routing
  1201.  
  1202. using much less expensive computers.
  1203.  
  1204.      Conversely  when  the  network  is  not  congested  there
  1205.  
  1206. is  very  small  marginal  cost  of  sending  additional  packets
  1207.  
  1208. through  the  routers.   It  would  therefore  be  appropriate  to
  1209.  
  1210. charge users a very small price for packets when the system
  1211.  
  1212. is not congested.
  1213. _________________________________________
  1214.  18  Although  it  may  be  true  that  an  institution's  use  of  the  backbo*
  1215.  *ne
  1216. bandwidth is more-or-less proportional to the bandwidth of its connection
  1217. to the backbone.   That is,  the size of an institution's dedicated line to
  1218. the backbone may be a good signal of its intended usage of the common
  1219. backbone.
  1220.  
  1221.  19  As we have already pointed out the major bottleneck in backbone
  1222. capacity is not the bandwidth of the medium itself, but the switch technology.
  1223. We use the term bandwidth to refer to the overall capacity of the network.
  1224.  
  1225.  
  1226.  
  1227.                                        21
  1228.  
  1229.      There  has  been  substantial  recent  work  on  designing
  1230.  
  1231. mechanisms for usage accounting on the Internet.  The In-
  1232.  
  1233. ternet  Accounting  Working  Group  has  published  a  draft
  1234.  
  1235. architecture for Internet usage reporting (Internet Account-
  1236.  
  1237. ing: Usage Reporting Architecture, July 9, 1992 draft). ANS
  1238.  
  1239. has  developed  a  usage  sampling  and  reporting  system  it
  1240.  
  1241. calls  COMBits.   COMBits  was  developed  to  address  the
  1242.  
  1243. need  to  allocate  costs  between  government-sponsored  re-
  1244.  
  1245. search and educational use, and commercial usage, which is
  1246.  
  1247. rapidly growing. COMBits collects an aggregate measure of
  1248.  
  1249. packets and bytes usage,  using a statistical sampling tech-
  1250.  
  1251. nique.  However,  COMBits only collects data down to the
  1252.  
  1253. network-to-network level of source and destination.  Thus,
  1254.  
  1255. the resulting data can only be used to charge at the level of the
  1256.  
  1257. subnetwork;  the local network administrator is responsible
  1258.  
  1259. for splitting up the bill, if desired (Ruth and Mills (1992)).20
  1260.  
  1261.  
  1262.  
  1263. 4.  Current Pricing Mechanisms
  1264.  
  1265.  
  1266. NSFNET,  the  primary  backbone  network  of  the  Internet,
  1267.  
  1268. has been paid for by the NSF, IBM, MCI and the State of
  1269.  
  1270. Michigan until the present.21  However, most organizations
  1271.  
  1272. do not connect directly to the NSFNET. A typical university
  1273.  
  1274. will  connect  to  its  regional  mid-level  network;  the  mid-
  1275.  
  1276. level maintains a connection to the NSFNET. The mid-level
  1277.  
  1278. networks (and a few alternative backbone networks) charge
  1279.  
  1280. their customers for access.
  1281. _________________________________________
  1282.  20  COMBits has been plagued by problems and resistance and currently
  1283. is used by almost none of the mid-level networks.
  1284.  
  1285.  21  NSF restricts the use of the backbone to traffic with a research or
  1286. educational purpose, as defined in the Acceptable Use Policies.
  1287.  
  1288.  
  1289.  
  1290.                                        22
  1291.  
  1292.      There  are  dozens  of  companies  that  offer  connections
  1293.  
  1294.  
  1295. to the Internet.  Most large organizations obtain direct con-
  1296.  
  1297.  
  1298. nections,  which  use  a  leased  line  that  permits  unlimited
  1299.  
  1300.  
  1301. usage subject to the bandwidth of the line. Some customers
  1302.  
  1303.  
  1304. purchase ``dial-up'' service which provides an intermittent
  1305.  
  1306.  
  1307. connection, usually at much lower speeds.  We will discuss
  1308.  
  1309.  
  1310. only direct connections below.
  1311.      Table 3 summarizes the prices offered to large universi-
  1312.  
  1313.  
  1314. ties by ten of the major providers for T-1 access (1.5 mbps).22
  1315.  
  1316.  
  1317. There are three major components: an annual access fee, an
  1318.  
  1319.  
  1320. initial connection fee and in some cases a separate charge
  1321.  
  1322.  
  1323. for the customer premises equipment (a router to serve as
  1324.  
  1325.  
  1326. a  gateway  between  the  customer  network  and  the  Internet
  1327.  
  1328.  
  1329. provider's network).23  The current annualized total cost per
  1330.  
  1331.  
  1332. T-1 connection is about $30--35,000.
  1333.  
  1334.  
  1335.  
  1336. _________________________________________
  1337.  22  The  fees  for  some  providers  are  dramatically  lower  due  to  public
  1338. subsidies.
  1339.  23  Customers will generally also have to pay a monthly ``local loop''
  1340. charge to a telephone company for the line between the customer's site and
  1341. the Internet provider's ``point of presence'' (POP), but this charge depends
  1342. on mileage and will generally be set by the telephone company, not the
  1343. Internet provider.
  1344.  
  1345.  
  1346.                                        23
  1347.  
  1348.  
  1349.  
  1350.  
  1351.      All of the providers use the same type of pricing: annual
  1352.  
  1353. fee  for  unlimited  access,  based  on  the  bandwidth  of  the
  1354.  
  1355. connection.   This  is  the  type  of  pricing  recommended  by
  1356.  
  1357. Faulhaber (1992).  However, these pricing schemes provide
  1358.  
  1359. no incentives to flatten peak demands, nor any mechanism for
  1360.  
  1361. allocating network bandwidth during periods of congestion.
  1362.  
  1363. It  would  be  relatively  simple  for  a  provider  to  monitor  a
  1364.  
  1365. customer's usage and bill by the packet or byte. Monitoring
  1366.  
  1367. requires only that the outgoing packets be counted at a single
  1368.  
  1369. point: the customer's gateway router.
  1370.  
  1371.      However,  pricing  by  the  packet  would  not  necessarily
  1372.  
  1373. increase the efficiency of network service provision, because
  1374.  
  1375. the  marginal  cost  of  a  packet  is  nearly  zero.  As  we  have
  1376.  
  1377. shown, the important scarce resource is bandwidth, and thus
  1378.  
  1379.  
  1380.                                        24
  1381.  
  1382. efficient prices need to reflect the current state of the network.
  1383.  
  1384. Neither a flat price per packet nor even time-of-day prices
  1385.  
  1386. would come very close to efficient pricing.
  1387.  
  1388.  
  1389.  
  1390. 5.  Proposals for pricing the network
  1391.  
  1392.  
  1393. We  think  that  it  is  worthwhile  thinking  about  how  such  a
  1394.  
  1395. pricing mechanism might work. Obviously, our suggestions
  1396.  
  1397. must be viewed as extremely tentative.  However, we hope
  1398.  
  1399. that an explicit proposal, such as we describe below, can at
  1400.  
  1401. least serve as a starting point for further discussion.
  1402.  
  1403.      We wholeheartedly adopt the viewpoint of Clark (1989)
  1404.  
  1405. who says ``It is useful to think of the interconnected [net-
  1406.  
  1407. works] as a marketplace, in which various services are of-
  1408.  
  1409. fered and users select among these services to obtain packet
  1410.  
  1411. transport.''  We take this point of view further to examine
  1412.  
  1413. what kind of pricing policy makes sense in the context of a
  1414.  
  1415. connectionless, packet-switched network.
  1416.  
  1417.      There are many aspects of network usage that might be
  1418.  
  1419. priced.   Cocchi,  Estrin,  Shenker,  and  Zhang  (1992)  make
  1420.  
  1421. this point quite clearly and describe how a general network
  1422.  
  1423. pricing problem can be formulated and analyzed. However,
  1424.  
  1425. we  will  analyze  only  one  particular  aspect  of  the  general
  1426.  
  1427. network pricing problem in this paper:  pricing access and
  1428.  
  1429. usage of the network backbone.
  1430.  
  1431.      The backbone has a finite capacity, so if enough packets
  1432.  
  1433. are  being  sent,  other  packets  will  not  be  able  to  be  sent.
  1434.  
  1435. Furthermore, as capacity is approached, the quality of ser-
  1436.  
  1437. vice deteriorates, imposing congestion costs on users of the
  1438.  
  1439. system.  How  should  a  pricing  mechanism  determine  who
  1440.  
  1441. will be able to use the network at a given time?
  1442.  
  1443.  
  1444.                                        25
  1445.  
  1446. 6.  General observations on pricing
  1447.  
  1448.  
  1449. Network engineers tend to take the behavior of the network
  1450.  
  1451. users  as  fixed,  and  try  to  adapt  the  technology  to  fit  this
  1452.  
  1453. behavior.  Economists tend to take the technology as fixed
  1454.  
  1455. and  design  a  resource  allocation  mechanism  that  adapts
  1456.  
  1457. the  users'  behavior  to  the  technological  limitations  of  the
  1458.  
  1459. network. Obviously these approaches are complementary!
  1460.  
  1461.      Let us consider some traditional pricing models for net-
  1462.  
  1463. work  access.  One  traditional  model  is  zero-priced  access.
  1464.  
  1465. This is commonly used in highway traffic, for example. This
  1466.  
  1467. has the well-known defect of the problem of the commons-
  1468.  
  1469. --if  each  user  faces  a  zero  price  for  access,  the  network
  1470.  
  1471. resources tend to become congested.
  1472.  
  1473.      Most common forms of pricing for network access use
  1474.  
  1475. posted prices: a fixed price schedule for different priorities of
  1476.  
  1477. access at different times. For example, the post office charges
  1478.  
  1479. a fixed price for different priorities of delivery service, and
  1480.  
  1481. telephone companies provide a fixed charge for connections
  1482.  
  1483. to different locations at different times of day.
  1484.  
  1485.      The trouble with posted prices is that they are generally
  1486.  
  1487. not  sufficiently  flexible  to  indicate  the  actual  state  of  the
  1488.  
  1489. network at a particular time.  If, at a point in time, there is
  1490.  
  1491. unused capacity,  it would be efficient to sell access to the
  1492.  
  1493. network at marginal cost, which is presumably close to zero.
  1494.  
  1495. Conversely,  if the network is at capacity,  some users with
  1496.  
  1497. high willingness-to-pay may be unable to access the network,
  1498.  
  1499. even though other users with lower willingness-to-pay have
  1500.  
  1501. access.  Pricing by time-of-day helps to achieve an efficient
  1502.  
  1503. pattern of usage of network capacity, but it is a rather blunt
  1504.  
  1505.  
  1506.                                        26
  1507.  
  1508. instrument to achieve a fully efficient allocation of network
  1509.  
  1510. bandwidth.24
  1511.  
  1512.  
  1513.  
  1514. 7.  An ideal but impractical solution
  1515.  
  1516.  
  1517. An ``ideal'' model for network access would be a continuous
  1518.  
  1519. market in network availability. At each point there would be
  1520.  
  1521. a price for access to the network. Users who were willing to
  1522.  
  1523. pay the price for delivery of a packet would be given access;
  1524.  
  1525. users who weren't would be denied access. The price would
  1526.  
  1527. be set so as to achieve an optimal level of congestion.
  1528.  
  1529.      How should the access price be determined? One mech-
  1530.  
  1531. anism  would  be  a  ``Walrasian  tatonnement.''   A  tentative
  1532.  
  1533. access price would be set.  Users would examine the access
  1534.  
  1535. price and see if they wanted access. If the sum of the demands
  1536.  
  1537. for access exceed the network capacity the price would be
  1538.  
  1539. adjusted upward, and so on.
  1540.  
  1541.      The  trouble  with  this  scheme  is  that  the  user  has  to
  1542.  
  1543. observe the current price in order to determine whether or not
  1544.  
  1545. he wants access. If the time pattern of usage were completely
  1546.  
  1547. predictable,  there would be no problem.  However,  packet
  1548.  
  1549. traffic on the Internet usage is known to be highly ``bursty.''
  1550.  
  1551.  
  1552.  
  1553. 8.  A smart market
  1554.  
  1555.  
  1556. One way to alleviate this problem is to use a ``smart market''
  1557.  
  1558. for setting the price of network access at different priorities.25
  1559. _________________________________________
  1560.  24  Posted, flat prices have some benefits. First, accounting and billing use
  1561. resources too, and may be too high to justify.  Second, many planner and
  1562. budget officers want predictable prices so they can authorize fixed funding
  1563. levels in advance.
  1564.  
  1565.  25  The term ``smart market'' seems to be due to Vernon Smith.  The
  1566. version we describe here is a variation on the Vickrey auction.
  1567.  
  1568.  
  1569.  
  1570.                                        27
  1571.  
  1572. In a smart market users have only to indicate the maximum
  1573.  
  1574. willingness-to-pay for network access. We will refer to this
  1575.  
  1576. maximum willingness to pay as the user's ``bid'' for network
  1577.  
  1578. access. The router notes the bid attached to each packet and
  1579.  
  1580. admits all packets with bids greater than some cutoff value.
  1581.  
  1582.      We depict the determination of the cutoff priority value
  1583.  
  1584. in Figure 6. The staircase depicted is simply a demand curve-
  1585.  
  1586. --it indicates how many packets there are at each different
  1587.  
  1588. bid.
  1589.  
  1590. Figure 6. Demand and supply for network bandwidth.
  1591.  
  1592.  
  1593.  
  1594.      We take the capacity of the network to be fixed, and we
  1595.  
  1596. indicate it by a vertical line in Figure 6. In the case depicted
  1597.  
  1598. the  demand  curve  intersects  the  supply  curve  at  price  8.
  1599.  
  1600. Hence, this is the price charged to all users---even those who
  1601.  
  1602. have packets with higher bids.
  1603.  
  1604.      Note that the bid price can be interpreted as a priority
  1605.  
  1606. price,  since  packets  with  higher  bids  automatically  have
  1607.  
  1608. higher priority in the sense that they will be admitted before
  1609.  
  1610. packets  with  lower  bids.   Note  how  this  is  different  from
  1611.  
  1612. priority-pricing  by  say,  the  post  office.   In  the  post-office
  1613.  
  1614. model you pay for first-class mail even if there is enough
  1615.  
  1616. excess  capacity  that  second-class  mail  could  move  at  the
  1617.  
  1618.  
  1619.                                        28
  1620.  
  1621. same speed. In the smart market described here, a user pays
  1622.  
  1623. at most their bid.
  1624.  
  1625.      The  smart  market  has  many  desirable  features.   It  is
  1626.  
  1627. obvious  from  the  diagram  that  the  outcome  is  the  classic
  1628.  
  1629. supply-equals-demand  level  of  service.    The  equilibrium
  1630.  
  1631. price,  at  any  point  in  time,  is  the  bid  of  the  marginal
  1632.  
  1633. user. Each infra-marginal user is charged this price, so each
  1634.  
  1635. infra-marginal user gets positive consumer surplus from his
  1636.  
  1637. purchase.
  1638.  
  1639.      The  major  differences  from  the  textbook  demand  and
  1640.  
  1641. supply story is that no iteration is needed to determine the
  1642.  
  1643. market-clearing price---the market is cleared as soon as the
  1644.  
  1645. users have submitted their bids for access.26  This mechanism
  1646.  
  1647. can also be viewed as a Vickrey auction where the n highest
  1648.  
  1649. bidders gain access at the n + 1st  highest price bid.27
  1650.  
  1651.      We  have  assumed  that  the  bid-price  set  by  the  users
  1652.  
  1653. accurately  reflects  the  true  willingness-to-pay.  One  might
  1654.  
  1655. well ask whether users have the correct incentives to reveal
  1656.  
  1657. this value: is there anything to be gained by trying to ``fool''
  1658.  
  1659. the smart market?  It turns out that the answer is ``no.''  It
  1660.  
  1661. can be shown that it is a dominant strategy in the Vickrey
  1662.  
  1663. auction to bid your true value, so users have no incentive to
  1664.  
  1665. misprepresent their bids for network access. By the nature of
  1666.  
  1667. the auction, you are assured that you will never be charged
  1668. _________________________________________
  1669.  26  Of course,  in real time operation,  one would presumably cumulate
  1670. demand over some time interval.   It is an interesting research issue to
  1671. consider how often the market price should be adjusted. The bursty nature
  1672. of Internet activity suggests a fairly short time interval. However, if users
  1673. were charged for packets, it is possible that the bursts would be dampened.
  1674.  
  1675.  27  Waldspurger,  Hogg,  Huberman,  Kephart,  and Stornetta (1992) de-
  1676. scribes some (generally positive) experiences in using this kind of ``second-
  1677. bid'' auction to allocate network resources. However, they do not examine
  1678. network access itself, as we are proposing here.
  1679.  
  1680.  
  1681.  
  1682.                                        29
  1683.  
  1684. more  than  this  amount  and  normally  you  will  be  charged
  1685.  
  1686. much less.
  1687.  
  1688.  
  1689.  
  1690. 9.  Remarks about the smart market solution
  1691.  
  1692.  
  1693. Here we consider several aspects of using efficient prices for
  1694.  
  1695. packet access to the Internet.
  1696.  
  1697.  
  1698.  
  1699. Who sets the bids?
  1700.  
  1701.  
  1702. We expect that choice of bids would be done by three parties:
  1703.  
  1704. the local administrator who controls access to the net,  the
  1705.  
  1706. user  of  the  computer,  and  the  computer  software  itself.
  1707.  
  1708. An organization with limited resources, for example, might
  1709.  
  1710. choose low bid prices for all sorts of access. This would mean
  1711.  
  1712. that they may not have access during peak times,  but still
  1713.  
  1714. would have access during off peak periods.  Normally, the
  1715.  
  1716. software program that uses the network would have default
  1717.  
  1718. values for service---e-mail would be lower than telnet, telnet
  1719.  
  1720. would  be  lower  than  audio,  and  so  on.   The  user  could
  1721.  
  1722. override these default values to express his own preferences-
  1723.  
  1724. --if he was willing to pay for the increased congestion during
  1725.  
  1726. peak periods.
  1727.  
  1728.      Note that this access control mechanism only guarantees
  1729.  
  1730. relative  priority,  not  absolute  priority.   A  packet  with  a
  1731.  
  1732. high bid is guaranteed access sooner than a low bid, but no
  1733.  
  1734. absolute guarantees of delivery time can be made.28  Rejected
  1735.  
  1736. packets would be bounced back to the users, or be routed to
  1737.  
  1738. a slower network.
  1739.  
  1740. _________________________________________
  1741.  28  It is hard to see how absolute guarantees can be made on a connection-
  1742. less network.
  1743.  
  1744.  
  1745.  
  1746.                                        30
  1747.  
  1748. Partial congestion
  1749.  
  1750.  
  1751. In  our  discussion  we  have  taken  the  network  capacity  to
  1752.  
  1753. be  exogenously  given.   However,  it  is  easy  to  extend  the
  1754.  
  1755. mechanism  to  the  case  where  an  additional  packet  creates
  1756.  
  1757. congestion for other packets, but does not entirely exclude
  1758.  
  1759. them.  To do this,  we simply need use an upward sloping
  1760.  
  1761. marginal cost/supply curve, rather than a vertical one.  We
  1762.  
  1763. still solve for the same intersection of supply and demand.
  1764.  
  1765.  
  1766. Offline accounting
  1767.  
  1768.  
  1769. If the smart market system is used with the sampling system
  1770.  
  1771. suggested  earlier  the  accounting  overhead  doesn't  have  to
  1772.  
  1773. slow things down much since it can be done in parallel. All
  1774.  
  1775. the router has to do is to compare the bid of a packet with the
  1776.  
  1777. current value of the cutoff.  The accounting information on
  1778.  
  1779. every 1000th  packet, say, is sent to a dedicated accounting
  1780.  
  1781. machine  that  determines  the  equilibrium  access  price  and
  1782.  
  1783. records the usage for later billing.29   Such sampling would
  1784.  
  1785. require changes in current router technology, however. The
  1786.  
  1787. NSFNET  modified  some  routers  to  collect  sampled  usage
  1788.  
  1789. data; the cost of the monitoring system is significant.
  1790.  
  1791.  
  1792. Network stability
  1793.  
  1794.  
  1795. Adding  bidding  for  priority  to  the  routing  system  should
  1796.  
  1797. help  maintain  network  stability,  since  the  highest  priority
  1798.  
  1799. packets  should  presumably  be  the  packets  sent  between
  1800.  
  1801. routers that indicate the state of the network. These network
  1802.  
  1803. ``traffic cops'' could displace ordinary packets so as to get
  1804.  
  1805. information through the system as quickly as possible.
  1806. _________________________________________
  1807.  29  We don't discuss the mechanics of the billing system here. Obviously,
  1808. there is a need for COD, third-party pricing, and other similar services.
  1809.  
  1810.  
  1811.  
  1812.                                        31
  1813.  
  1814. Routing
  1815.  
  1816.  
  1817. As we have mentioned several times, the Internet is a connec-
  1818.  
  1819. tionless network. Each router knows the final destination of a
  1820.  
  1821. packet, and determines, from its routing tables, what the best
  1822.  
  1823. way is to get from the current location to the next location.
  1824.  
  1825. These routing tables are updated continuously to indicate the
  1826.  
  1827. current  topology  (but  not  the  congestion)  of  the  network.
  1828.  
  1829. Routing tables change to reflect failed links and new nodes,
  1830.  
  1831. but they do not change to reflect congestion on various links
  1832.  
  1833. of the network. Indeed, there is no standard measurement for
  1834.  
  1835. congestion available on the current NSFNET T-3 network.
  1836.  
  1837.      Currently, there is no prioritization of packets: all packets
  1838.  
  1839. follow the same route at a given time. However, if each packet
  1840.  
  1841. carried a bid price, as we have suggested, this information
  1842.  
  1843. could be used to facilitate routing through the Internet.  For
  1844.  
  1845. example, packets with higher bids could take faster routes,
  1846.  
  1847. while packets with lower bids could be routed through slower
  1848.  
  1849. links.
  1850.  
  1851.      The  routers  could  assign  access  prices  to  each  link  in
  1852.  
  1853. the net, so that only packets that were ``willing to pay'' for
  1854.  
  1855. access to that link would be given access.  Obviously this
  1856.  
  1857. description is very incomplete, but it seems likely that having
  1858.  
  1859. packets bid for access will help to distribute packets through
  1860.  
  1861. the network in a more efficient way.
  1862.  
  1863.  
  1864.  
  1865. Capacity expansion
  1866.  
  1867.  
  1868. It is well-known that optimal prices send the correct signals
  1869.  
  1870. for capacity expansion, at least under constant or decreasing
  1871.  
  1872. returns  to  scale.   That  is,  if  an  optimally  priced  network
  1873.  
  1874. generates sufficient revenue to pay the cost of new capacity,
  1875.  
  1876.  
  1877.                                        32
  1878.  
  1879. then it is appropriate to add that capacity. It appears from our
  1880.  
  1881. examination of the cost structure of the Internet that constant
  1882.  
  1883. returns to scale is not a bad approximation, at least for small
  1884.  
  1885. changes in scale. Hence, the access prices we have described
  1886.  
  1887. should serve as useful guides for capacity expansion.
  1888. Distributional aspects
  1889.  
  1890.  
  1891. The issue of pricing the Internet is highly politicized. Since
  1892.  
  1893. the  net  has  been  free  for  many  years,  there  is  a  large
  1894.  
  1895. constituency that is quite opposed to paying for access. One
  1896.  
  1897. nice  feature  of  smart  market  pricing  is  that  low-priority
  1898.  
  1899. access  to  the  Internet  (such  as  e-mail)  would  continue  to
  1900.  
  1901. have a very low cost.  Indeed, with relatively minor public
  1902.  
  1903. subsidies to cover the marginal resource costs, it would be
  1904.  
  1905. possible to have efficient pricing with a price of close to zero
  1906.  
  1907. most of the time, since the network is usually not congested.
  1908.  
  1909.      If there are several competing carriers, the usual logic of
  1910.  
  1911. competitive bidding suggests that the price for low-priority
  1912.  
  1913. packets should approach marginal cost---which, as we have
  1914.  
  1915. argued, is essentially zero. In the plan that we have outlined
  1916.  
  1917. the high priority users would end up paying most of the costs
  1918.  
  1919. of the Internet.
  1920.  
  1921.      In any case, our discussion has focused on obtaining an
  1922.  
  1923. efficient allocation of scarce network resources conditional
  1924.  
  1925. on the pre-existing distribution of budgetary resources. Noth-
  1926.  
  1927. ing  about  efficient  pricing  precludes  the  government  from
  1928.  
  1929. providing cash subsidies for some groups of users to allow
  1930.  
  1931. them to purchase network access.
  1932.  
  1933.                                        33
  1934.  
  1935. 10.  Role of public and private sector
  1936.  
  1937.  
  1938. As  we  have  seen,  current  private  providers  of  access  to
  1939.  
  1940. the  Internet  generally  charge  for  the  ``size  of  the  pipe''
  1941.  
  1942. connecting users to the net.  This sort of pricing is probably
  1943.  
  1944. not too bad from an efficiency point of view since the ``size
  1945.  
  1946. of  the  pipe''  is  more-or-less  proportional  to  contemplated
  1947.  
  1948. peak usage.
  1949.  
  1950.      The  problem  is  that  there  is  no  pricing  for  access  to
  1951.  
  1952. the common backbone.  In December of 1992, the NSF an-
  1953.  
  1954. nounced that it will stop providing direct operational funding
  1955.  
  1956. for the ANS T-3 Internet backbone. It is not yet clear when
  1957.  
  1958. this  will  actually  happen,  although  the  cooperative  agree-
  1959.  
  1960. ment  between  NSF  and  Merit  has  been  extended  through
  1961.  
  1962. April 1994. According to the solicitation for new proposals,
  1963.  
  1964. the NSF intends to create a new very high speed network
  1965.  
  1966. to  connect  the  supercomputer  centers  which  would  not  be
  1967.  
  1968. used for general purpose traffic. In addition, the NSF would
  1969.  
  1970. provide funding to regional networks that they could use to
  1971.  
  1972. pay for access to backbone networks like ANSnet,  PSInet
  1973.  
  1974. and Alternet.
  1975.  
  1976.      The  NSF  plan  is  moving  the  Internet  away  from  the
  1977.  
  1978. ``Interstate''  model,  and  towards  the  ``turnpike''  model.
  1979.  
  1980. The ``Interstate'' approach is for the government to develop
  1981.  
  1982. the ``electronic superhighways of the future'' as part of an
  1983.  
  1984. investment in infrastructure. The ``turnpike'' approach is that
  1985.  
  1986. the private sector should develop the network infrastructure
  1987.  
  1988. for Internet-like operations, with the government providing
  1989.  
  1990. subsidies to offset the cost of access to the private networks.
  1991.  
  1992.      Both funding models have their advantages and disad-
  1993.  
  1994. vantages.   But  we  think  that  an  intermediate  solution  is
  1995.  
  1996.  
  1997.                                        34
  1998.  
  1999. necessary.  The private sector is probably more flexible and
  2000.  
  2001. responsive  than  a  government  bureaucracy.  However,  the
  2002.  
  2003. danger is that competing network standards would lead to an
  2004.  
  2005. electronic Tower of Babel. It is important to remember that
  2006.  
  2007. turnpikes have the same traffic regulations as the Interstates:
  2008.  
  2009. there  is  likely  a  role  for  the  government  in  coordinating
  2010.  
  2011. standards setting for network traffic. In particular, we think
  2012.  
  2013. that  it  makes  sense  for  the  government,  or  some  industry
  2014.  
  2015. consortium, to develop a coherent plan for pricing Internet
  2016.  
  2017. traffic at a packet level.
  2018.  
  2019.      A pricing standard has to be carefully designed to contain
  2020.  
  2021. enough  information  to  encourage  efficient  use  of  network
  2022.  
  2023. bandwidth,  as  well  as  containing  the  necessary  hooks  for
  2024.  
  2025. accounting and rebilling information.  A privatized network
  2026.  
  2027. is simply not viable without such standards, and work should
  2028.  
  2029. start immediately on developing them.
  2030.  
  2031.  
  2032.  
  2033.                                        35
  2034.  
  2035.                                 Glossary30
  2036.  
  2037. Asynchronous Transfer Mode (ATM)
  2038.  
  2039.      A method for the dynamic allocation of bandwidth using
  2040. a fixed- size packet (called a cell).  ATM is also known as
  2041. "fast packet".
  2042.  
  2043. backbone
  2044.  
  2045.      The top level in a hierarchical network. Stub and transit
  2046. networks which connect to the same backbone are guaranteed
  2047. to be interconnected. See also: stub network, transit network.
  2048.  
  2049. bandwidth
  2050.  
  2051.      Technically, the difference, in Hertz (Hz), between the
  2052. highest  and  lowest  frequencies  of  a  transmission  channel.
  2053. However, as typically used, the amount of data that can be
  2054. sent through a given communications circuit.
  2055.  
  2056. Bitnet
  2057.  
  2058.      An academic computer network that provides interactive
  2059. electronic  mail  and  file  transfer  services,  using  a  store-
  2060. and-forward  protocol,  based  on  IBM  Network  Job  Entry
  2061. protocols.  Bitnet-II encapsulates the Bitnet protocol within
  2062. IP packets and depends on the Internet to route them.
  2063.  
  2064. circuit switching
  2065.  
  2066.      A communications paradigm in which a dedicated com-
  2067. munication  path  is  established  between  two  hosts,  and  on
  2068. which all packets travel. The telephone system is an example
  2069. of a circuit switched network.
  2070.  
  2071. connectionless
  2072.  
  2073.      The data communication method in which communica-
  2074. tion occurs between hosts with no previous setup.  Packets
  2075. between  two  hosts  may  take  different  routes,  as  each  is
  2076. independent of the other. UDP is a connectionless protocol.
  2077.  
  2078. Gopher
  2079.  
  2080.      A  distributed  information  service  that  makes  available
  2081. hierarchical  collections  of  information  across  the  Internet.
  2082. _________________________________________
  2083.  30  Most of these definitions are taken from Malkin and Parker (1992).
  2084.                                        36
  2085.  
  2086. Gopher uses a simple protocol that allows a single Gopher
  2087. client  to  access  information  from  any  accessible  Gopher
  2088. server,  providing  the  user  with  a  single  "Gopher  space"of
  2089. information. Public domain versions of the client and server
  2090. are available.
  2091.                                        37
  2092.  
  2093. header
  2094.  
  2095.      The portion of a packet, preceding the actual data, con-
  2096. taining source and destination addresses, and error checking
  2097. and other fields. A header is also the part of an electronic mail
  2098. message that precedes the body of a message and contains,
  2099. among other things, the message originator, date and time.
  2100.  
  2101. hop
  2102.  
  2103.      A  term  used  in  routing.   A  path  to  a  destination  on  a
  2104. network is a series of hops, through routers, away from the
  2105. origin.
  2106.  
  2107. host
  2108.  
  2109.      A computer that allows users to communicate with other
  2110. host computers on a network. Individual users communicate
  2111. by  using  application  programs,  such  as  electronic  mail,
  2112. Telnet and FTP.
  2113.  
  2114. internet
  2115.  
  2116.      While an internet is a network, the term "internet"is usu-
  2117. ally used to refer to a collection of networks interconnected
  2118. with routers.
  2119.  
  2120. Internet
  2121.  
  2122.      (note the capital "I") The Internet is the largest internet in
  2123. the world. Is a three level hierarchy composed of backbone
  2124. networks  (e.g.,  NSFNET,  MILNET),  mid-level  networks,
  2125. and stub networks. The Internet is a multiprotocol internet.
  2126.  
  2127. Internet Protocol (IP)
  2128.  
  2129.      The  Internet  Protocol,  defined  in  STD  5,  RFC  791,  is
  2130. the  network  layer  for  the  TCP/IP  Protocol  Suite.   It  is  a
  2131. connectionless, best-effort packet switching protocol.
  2132.  
  2133. National Research and Education Network (NREN)
  2134.  
  2135.      The NREN is the realization of an interconnected gigabit
  2136. computer network devoted to Hign Performance Computing
  2137. and Communications.
  2138.  
  2139. packet
  2140.  
  2141.      The unit of data sent across a network. "Packet"a generic
  2142. term used to describe unit of data at all levels of the protocol
  2143. stack,  but it is most correctly used to describe application
  2144. data units.
  2145.  
  2146.  
  2147.  
  2148.                                        38
  2149.  
  2150. packet switching
  2151.  
  2152.      A  communications  paradigm  in  which  packets  (mes-
  2153. sages) are individually routed between hosts, with no previ-
  2154. ously established communication path.
  2155.  
  2156. protocol
  2157.  
  2158.      A formal description of message formats and the rules
  2159. two computers must follow to exchange those messages. Pro-
  2160. tocols can describe low-level details of machine-to-machine
  2161. interfaces (e.g.,  the order in which bits and bytes are sent
  2162. across  a  wire)  or  high-level  exchanges  between  allocation
  2163. programs (e.g.,  the way in which two programs transfer a
  2164. file across the Internet).
  2165.  
  2166. route
  2167.  
  2168.      The  path  that  network  traffic  takes  from  its  source  to
  2169. its destination.  Also,  a possible path from a given host to
  2170. another host or destination.
  2171.  
  2172. router
  2173.  
  2174.      A device which forwards traffic between networks. The
  2175. forwarding decision is based on network layer information
  2176. and routing tables, often constructed by routing protocols.
  2177.  
  2178. Switched Multimegabit Data Service (SMDS)
  2179.  
  2180.      An  emerging  high-speed  datagram-based  public  data
  2181. network service developed by Bellcore and expected to be
  2182. widely used by telephone companies as the basis for their
  2183. data networks.
  2184.  
  2185. T1
  2186.  
  2187.      An  AT&T  term  for  a  digital  carrier  facility  used  to
  2188. transmit a DS-1 formatted digital signal at 1.544 megabits
  2189. per second.
  2190.  
  2191. T3
  2192.  
  2193.      A  term  for  a  digital  carrier  facility  used  to  transmit  a
  2194. DS-3 formatted digital signal at 44.746 megabits per second.
  2195.  
  2196. Transmission Control Protocol (TCP)
  2197.  
  2198.      An Internet Standard transport layer protocol defined in
  2199. STD  7,  RFC  793.   It  is  connection-oriented  and  stream-
  2200. oriented, as opposed to UDP.
  2201.                                        39
  2202.  
  2203.                                  References
  2204.  
  2205.  
  2206.  
  2207. Anonymous (1986).  Stratacom, inc. introduces `packetized
  2208.          voice system'. Communications Week, 2.
  2209.  
  2210. Cavanaugh, J. D., and Salo, T. J. (1992).   Internetworking
  2211.          with atm wans. Tech. rep., Minnesota Supercomputer
  2212.          Center, Inc.
  2213.  
  2214. Claffy,  K.  C.,  Polyzos,  G.  C.,  and  Braun,  H.-W.  (1992).
  2215.          Traffic characteristics of the t1 nsfnet backbone. Tech.
  2216.          rep. CS92-252, UCSD.  Available via Merit gopher in
  2217.          Introducing the Internet directory.
  2218.  
  2219. Clark,  D.  (1989).     Policy  routing  in  internet  protocols.
  2220.          Tech. rep. RFC1102, M.I.T. Laboratory for Computer
  2221.          Science.
  2222.  
  2223. Cocchi,  R.,  Estrin,  D.,  Shenker,  S.,  and Zhang,  L. (1992).
  2224.          Pricing in computer networks:  Motivation,  formula-
  2225.          tion, and example.  Tech. rep., University of Southern
  2226.          California.
  2227.  
  2228. Faulhaber,  G.  R.  (1992).    Pricing  Internet:  The  efficient
  2229.          subsidy.   In  Kahin,  B.  (Ed.),  Building  Information
  2230.          Infrastructure. McGraw-Hill Primis.
  2231.  
  2232. Gerla, M., and Kleinrock, L. (1988).  Congestion control in
  2233.          interconnected lans. IEEE Network, 2(1), 72--76.
  2234.  
  2235. Green,  P.  E.  (1991).    The  future  of  fiber-0ptic  computer
  2236.          networks. IEEE Computer, ?, 78--87.
  2237.  
  2238. Green,  P.  E.  (1992).     An  all-optical  computer  network:
  2239.          Lessons learned. Network Magazine, ?
  2240.  
  2241. Huber, P. W. (1987).  The Geodesic Network: 1987 Report
  2242.          on Competition in the Telephone Industry. U.S. Gov't
  2243.          Printing Office, Washington, DC.
  2244.  
  2245. Kahin, B. (1992).  Overview: Understanding the NREN.  In
  2246.          Kahin, B. (Ed.), Building Information Infrastructure.
  2247.          McGraw-Hill Primis, NY.
  2248.  
  2249. Kleinrock,  L.  (1992).     Technology  issues  in  the  design
  2250.          of NREN.  In Kahin,  B. (Ed.),  Building Information
  2251.          Infrastructure. McGraw-Hill Primis.
  2252.  
  2253. Krol, E. (1992). The Whole Internet. O'Reilly & Associates,
  2254.          Inc., Sebastopol, CA.
  2255.  
  2256.  
  2257.                                        40
  2258.  
  2259. Lynch, D. C. (1993). Historical evolution. In Internet System
  2260.          Handbook. Addison Wesley, Reading, MA.
  2261.  
  2262. Malkin, G., and Parker, T. L. (1992). Internet users' glossary.
  2263.          Tech. rep., Xylogics, Incl. and University of Texas.
  2264.  
  2265. Mandelbaum,  R.,  and  Mandelbaum,  P.  A.  (1992).    The
  2266.          strategic future of the mid-level networks. In Kahin, B.
  2267.          (Ed.), Building Information Infrastructure.  McGraw-
  2268.          Hill Primis.
  2269.  
  2270. McGarty, T. P. (1992). Alternative networking architectures:
  2271.          Pricing, policy, and competition.  In Kahin, B. (Ed.),
  2272.          Building  Information  Infrastructure.    McGraw-Hill
  2273.          Primis.
  2274.  
  2275. Roberts, L. G. (1974).  Data by the packet.  IEEE Spectrum,
  2276.          XX, 46--51.
  2277.  
  2278. Ruth, G., and Mills, C. (1992).  Usage-based cost recovery
  2279.          in internetworks.  Business Communications Review,
  2280.          xx, 38--42.
  2281.  
  2282. Smarr, L. L., and Catlett, C. E. (1992).  Life after Internet:
  2283.          Making room for new applications. In Kahin, B. (Ed.),
  2284.          Building  Information  Infrastructure.    McGraw-Hill
  2285.          Primis.
  2286.  
  2287. Waldspurger, C. A., Hogg, T., Huberman, B. A., Kephart,
  2288.          J.  O.,  and  Stornetta,  W.  S.  (1992).   Spawn:  A  dis-
  2289.          tributed computational economy.  IEEE Transactions
  2290.          on Software Engineering, 18(2), 103--117.
  2291.  
  2292.  
  2293.  
  2294.                                        41
  2295.  
  2296.  
  2297.  
  2298.  
  2299.  
  2300.  
  2301. -----------------------------------------------------------------------
  2302.  
  2303.      This file passed through SEA OF NOISE, +1 203 886 1441...
  2304.  
  2305.                           SHARE & ENJOY!
  2306.  
  2307. -----------------------------------------------------------------------
  2308.  
  2309.